我们提出了一个通用,灵活和可扩展的框架DPART,这是一个开源python库,用于私人合成数据生成。该方法的核心是自回旋建模 - 将联合数据分布分配到一系列较低维的条件分布序列,这些分布由各种方法(例如机器学习模型(逻辑/线性回归,决策树)等)捕获,简单直方图,简单直方图,或定制技术。该图书馆的创建是为了作为快速且可访问的基线以及容纳广泛的用户,从综合数据生成的第一步到具有域专业知识的经验丰富的人,他们可以配置不同方面建模并贡献新的方法/机制。DPART的特定实例包括独立,优化版本的Privbayes和新提出的模型DP-SynthPop。代码:https://github.com/hazy/dpart
translated by 谷歌翻译
生成的对抗网络(GANS)是生成综合数据,尤其是图像的最流行的方法之一,用于数据共享目的。鉴于在原始数据中保留各个数据点隐私至关重要的重要意义,GAN培训利用具有差异隐私保障(如差异隐私(DP)等强大隐私保证的框架。然而,当呈现有不平衡的数据集时,这些方法仍然超越单个性能指标之外。为此,我们系统地将培训的Gans与两个透视图的不同数据不平衡设置中的两个最着名的DP框架培训培训 - 从两个透视图 - 生成的合成数据和它们的类别中的类别分类绩效。我们的分析表明,与DP-SGD类似,应用头脑对下面的/超代表的类别具有不同的影响,但在更温和的幅度下使其更加强大。有趣的是,我们的实验一直表明,对于PITE,与DP-SGD不同,隐私式实用权折衷不是单调递减,而是更平滑和倒置U形,这意味着增加了小程度的隐私实际上有助于泛化。但是,我们还确定了一些设置(例如,大不平衡),Pate-GaN完全无法学习培训数据的一些子部分。
translated by 谷歌翻译
接受差异隐私(DP)训练的生成模型可用于生成合成数据,同时最大程度地降低隐私风险。我们分析了DP对数据的影响不足的数据/子组的影响,特别是研究:1)合成数据中类/子组的大小和2)分类任务的准确性在其上运行。我们还评估了各种不平衡和隐私预算的影响。我们的分析使用了三种最先进的DP模型(Privbayes,DP-WGAN和PATE-GAN),并表明DP在生成的合成数据中产生相反的大小分布。它影响了多数族裔和少数族裔/亚组之间的差距;在某些情况下,通过减少它(一种“罗宾汉”效应),而在其他情况下则通过增加它(一种“马修”效应)。无论哪种方式,这都会导致(类似)对合成数据的分类任务准确性的(类似)不同的影响,从而更加不成比例地影响了代表性不足的数据。因此,当培训模型对合成数据时,可能会导致不均匀地处理不同亚群的风险,从而得出不可靠或不公平的结论。
translated by 谷歌翻译
我们通过介绍Quiver神经网络的概念来开发一种统一的理论方法来分析各种神经网络连接体系结构。受箭量表示理论的启发,这种方法提供了一种紧凑的方法来捕获复杂的网络体系结构中精心设计的数据流。作为应用程序,我们使用参数空间对称性来证明一种无损模型压缩算法的颤动神经网络,其某些非点线激活称为重新激活。在径向重新恢复激活的情况下,我们证明,使用梯度下降的压缩模型等同于用预计梯度下降训练原始模型。
translated by 谷歌翻译
人们利用小组讨论进行协作以解决复杂的任务,例如在项目会议或招聘面板中。通过这样做,他们参与了各种对话策略,他们试图相互说服最佳方法,并最终做出决定。在这项工作中,我们研究了检测是什么使某人改变主意的方法。为此,我们利用了最近介绍的数据集,其中包含有关解决任务的人协作的小组讨论。为了找出使某人改变主意的原因,我们结合了各种技术,例如神经文本分类和语言不足的变化点检测。对这些方法的评估表明,虽然任务并非微不足道,但最好的方法是使用与学习级别培训的语言感知模型。最后,我们研究了模型发展为改变主意的原因的线索。
translated by 谷歌翻译
本文使用基于实例分割和图形匹配的LIDAR点云进行了极强和轻量级的定位。我们将3D点云建模为在语义上识别的组件的完全连接图,每个顶点对应于对象实例并编码其形状。跨图的最佳顶点关联允许通过测量相似性进行完整的6度自由(DOF)姿势估计和放置识别。这种表示非常简洁,将地图的大小缩合为25倍,而最先进的图像仅需要3KB代表1.4MB激光扫描。我们验证了系统在Semantickitti数据集中的功效,在该数据集中,我们获得了新的最新识别,平均召回了88.4%的召回,而下一个最接近的竞争对手则为64.9%。我们还显示了准确的度量姿势估计性能 - 估计中位误差为10 cm和0.33度的6 -DOF姿势。
translated by 谷歌翻译
我们介绍了一类完全连接的神经网络,其激活功能而不是点,而是仅取决于其规范来缩回特征向量。我们称此类网络径向神经网络,扩展了先前在旋转模棱两可的网络上的工作,该网络认为将激活重新激活较少。我们证明了径向神经网络的通用近似定理,包括在更困难的宽度和无界域的情况下。我们的证明技术是新颖的,与偶然的情况不同。此外,径向神经网络在可训练参数的矢量空间上表现出丰富的基础对称性。分解这些对称性会导致实用的无损模型压缩算法。通过梯度下降对压缩模型的优化等效于整个模型的投影梯度下降。
translated by 谷歌翻译
包含数据增强的贝叶斯神经网络隐含地使用“无随机扰动的日志 - 似然,[哪个]没有作为有效的似然函数的干净解释''(Izmailov等,2021)。在这里,我们为开发具有数据增强的原则贝叶斯神经网络的方法提供了几种方法。我们介绍了一个“有限轨道”的设置,允许完全计算似然性,并在更常见的“完全轨道”设置中为更紧密的多样本限制。这些模型在寒冷后效应的起源上投射光线。特别是,我们发现甚至在包括数据增强的这些原则模型中仍然存在寒冷的后效。这表明冷的后效不能使用不正确的可能性作为数据增强的伪影。
translated by 谷歌翻译